SlideShare a Scribd company logo
1 of 4
Download to read offline
統計概論

確率変数: X
実現値: x

分布関数: FX ( x )

                         ∂
密度関数: f X ( x ) =           FX ( x )
                         ∂x



積率母関数(モーメント母関数)


      (φ )  =
定義: G = E  eφ X 
                                  ∫e
                                      φx
                                           ⋅ f ( x ) dx

                                                   1          1               
性質: G (= E  eφ= E 1 + X φ + X 2φ 2 + X 3φ 3 + ⋅⋅⋅ (φを 0 の周りでテイラー展
       φ)   
               X
                 
                            2!       3!           
開)

上式で,k 時モーメントを µ k = E  X k  とおくと次のようになる.
                       

                                                          1         1
                                   G (φ ) = 1 + µ1φ +        µ2φ 2 + µ3φ 3 + ⋅⋅⋅
                                                          2!        3!

よって G
          k
              ( 0 ) = µk となり,積率母関数を k 階微分して 0 を代入したものは k 次モーメント

E  X k  に等しい.
   
(別証明)
          ∂k                                  ∂k φx
G (φ ) =
  k
             k ∫
                 eφ x ⋅ f ( x ) dx =       ∫ ∂φ k e ⋅ f ( x ) dx =   ∫x e
                                                                       k φx
                                                                              ⋅ f ( x ) dx
         ∂φ

であるから, G k ( 0 ) = ⋅ f ( x ) dx =X k  =
                  xk          ∫ E   µk となる.
                                  


  期待値

                              ∞
定義:= E [=
   µX   X]                ∫       x ⋅ f ( x ) dx
                           −∞
性質: E [ aX + b ] aE [ X ] + b
            =


                (
公式: E  E Y X  =
       X   Y       ) ∫ E (Y X ) ⋅ f ( x ) ⋅ dx = ∫ ∫
                                               X                      y ⋅ fY X ( y x ) ⋅ f X ( x ) ⋅ dydx


       ∫
     =              ∫    y ⋅ f XY ( x, y ) ⋅ dydx =   ∫   y ⋅ fY ( y ) ⋅ dy = E [Y ](期待値繰り返しの公式)

・ に関して)原点周りの 1 次モーメント
 (X


 分散


                          ∫ ( x − E [ X ]) ⋅ f ( x ) dx
                              ∞
定義: σ X = [ X ] =
           2
         V
                           −∞



性質: V [ aX + b ] =V [ X ] , V [ X ] E  X 2  − E [ X ]           {        }
                                                                               2
                 a        2
                           =           
公式:

                                                          {           }                {
E V (Y X )  + V  E (Y X )  = E  E (Y 2 X ) − E (Y X )  + E  E (Y X )  − E  E (Y X )  }   {        }
                                                            2                2                                  2

X Y         X Y                
                                                             
                                                                 
                                                                              
                                                                                           

                                                      {           }
             E Y 2  − E  E (Y X )  + E  E (Y X )  − { E [Y ]}                {       }
                                                        2                2          2
                               =    
                                             
                                                         
                                                               
                                                                          
                                                                           
             E Y 2  − { E [Y ]} = [Y ]
                                                              2
           =                     V

・平均周りの 2 次モーメント
・2 次モーメントから 1 次モーメントの 2 乗を引いたもの


 共分散


                                  ∫ ∫ ( x − E [ X ]) ( y − E [Y ]) ⋅ f ( x, y ) dxdy
                                    ∞    ∞
定義: σ XY= Cov [ X , Y =
                      ]             −∞ −∞



性質: Co [ , Y ] E [ XY ] − E [ X ] E [Y ]
       =
       vX

・平均まわりの(1,1)次のモーメント
・実際に計算する際には,平均値からの差を利用する場合と観測値の差のペアを利用する
場合の二通りある.


 独立と無相関

独立: f XY ( x, y )
         =              f X ( x ) ⋅ fY ( y )
無相関: Cov [ X , Y ] = 0

性質:独立⇒無相関
・無相関⇒独立の反例
       1 1
X ~ U  − ,  , Y = X 2 である場合,無相関ではあるが独立ではない.
       2 2


 標準偏差

定義: σ X = V [ X ]

・分散の平方根


 標準化


Z=
     (X − µ)
       σ
・確率変数 X から期待値μを引いて標準偏差σで割ったもの


 歪度

        ( X − µ ) 3  µ
定義: E              =
                           3

           σ   σ3
                      
・標準化確率変数の 3 次モーメント
・平均周りの 3 次モーメントをσ3 で割ったもの
・0 だと対称.正だと右裾,負だと左裾を引く


 尖度

        ( X − µ ) 4      µ4
定義: E               − 3=    −3
       σ
                    
                             σ4

・標準化確率変数の 4 次モーメントから 3 を引いたもの
・正規分布では 0.正だと尖った,負だと平坦な分布


・相関係数(共分散を基準化したもの,単回帰によって計算される平方和を利用しても計
算できる)
・分散共分散行列,相関係数行列
・平均二乗誤差(MSE)
・最小二乗誤差(LSMEAN)
       ,第 1 種~第 4 種
・平方和(SS)
・統計量の性質
     ・ 不偏性
     ・ 有効性
     ・ 一致性
     ・ 充分性
     ・ 完備性
     ・


・漸近効率
     ・ ピットマンの効率
     ・ バハドールの効率


・数値積分
     ・Romberg 法


・常微分方程式
     ・可変ステップサイズの後退差分法

More Related Content

What's hot

コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM) コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM) Takahiro (Poly) Horikawa
 
20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算matsumoring
 
20150922_楕円関数とおもしろい応用
20150922_楕円関数とおもしろい応用20150922_楕円関数とおもしろい応用
20150922_楕円関数とおもしろい応用matsumoring
 
060 期待値・中心極限定理
060 期待値・中心極限定理060 期待値・中心極限定理
060 期待値・中心極限定理t2tarumi
 
030 2変数の集計
030 2変数の集計030 2変数の集計
030 2変数の集計t2tarumi
 
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半Prunus 1350
 
何もないところから数を作る
何もないところから数を作る何もないところから数を作る
何もないところから数を作るTaketo Sano
 
ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学ssuserf4860b
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成Prunus 1350
 
何もないところから数を作る
何もないところから数を作る何もないところから数を作る
何もないところから数を作るTaketo Sano
 
コードを書けば複素数がわかる
コードを書けば複素数がわかるコードを書けば複素数がわかる
コードを書けば複素数がわかるTaketo Sano
 
虚数は作れる!Swift で学ぶ複素数
虚数は作れる!Swift で学ぶ複素数虚数は作れる!Swift で学ぶ複素数
虚数は作れる!Swift で学ぶ複素数Taketo Sano
 
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ssuserf4860b
 
シンギュラリティを知らずに機械学習を語るな
シンギュラリティを知らずに機械学習を語るなシンギュラリティを知らずに機械学習を語るな
シンギュラリティを知らずに機械学習を語るなhoxo_m
 
スプラトゥーン2 × 数学(訂正版)
スプラトゥーン2 × 数学(訂正版)スプラトゥーン2 × 数学(訂正版)
スプラトゥーン2 × 数学(訂正版)Takunology
 
経験過程
経験過程経験過程
経験過程hoxo_m
 

What's hot (20)

コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM) コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
コンピュータービジョン最先端ガイド2 3.4ベクトルデータに対するカーネル法(SVM)
 
20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算
 
20150922_楕円関数とおもしろい応用
20150922_楕円関数とおもしろい応用20150922_楕円関数とおもしろい応用
20150922_楕円関数とおもしろい応用
 
回帰
回帰回帰
回帰
 
Linera lgebra
Linera lgebraLinera lgebra
Linera lgebra
 
060 期待値・中心極限定理
060 期待値・中心極限定理060 期待値・中心極限定理
060 期待値・中心極限定理
 
030 2変数の集計
030 2変数の集計030 2変数の集計
030 2変数の集計
 
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
 
何もないところから数を作る
何もないところから数を作る何もないところから数を作る
何もないところから数を作る
 
Prml 4.3.6
Prml 4.3.6Prml 4.3.6
Prml 4.3.6
 
ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学ラビットチャレンジレポート 応用数学
ラビットチャレンジレポート 応用数学
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 
何もないところから数を作る
何もないところから数を作る何もないところから数を作る
何もないところから数を作る
 
コードを書けば複素数がわかる
コードを書けば複素数がわかるコードを書けば複素数がわかる
コードを書けば複素数がわかる
 
虚数は作れる!Swift で学ぶ複素数
虚数は作れる!Swift で学ぶ複素数虚数は作れる!Swift で学ぶ複素数
虚数は作れる!Swift で学ぶ複素数
 
線形計画法入門
線形計画法入門線形計画法入門
線形計画法入門
 
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
 
シンギュラリティを知らずに機械学習を語るな
シンギュラリティを知らずに機械学習を語るなシンギュラリティを知らずに機械学習を語るな
シンギュラリティを知らずに機械学習を語るな
 
スプラトゥーン2 × 数学(訂正版)
スプラトゥーン2 × 数学(訂正版)スプラトゥーン2 × 数学(訂正版)
スプラトゥーン2 × 数学(訂正版)
 
経験過程
経験過程経験過程
経験過程
 

Similar to 統計概論 isseing333

第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知Chika Inoshita
 
公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理Joe Suzuki
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)Yukara Ikemiya
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定t2tarumi
 
2022年度秋学期 応用数学(解析) 第6回 変数分離形の変形 (2022. 10. 27)
2022年度秋学期 応用数学(解析) 第6回 変数分離形の変形 (2022. 10. 27) 2022年度秋学期 応用数学(解析) 第6回 変数分離形の変形 (2022. 10. 27)
2022年度秋学期 応用数学(解析) 第6回 変数分離形の変形 (2022. 10. 27) Akira Asano
 
mathemaical_notation
mathemaical_notationmathemaical_notation
mathemaical_notationKenta Oono
 
線形識別モデル
線形識別モデル線形識別モデル
線形識別モデル貴之 八木
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布t2tarumi
 
代数トポロジー入門
代数トポロジー入門代数トポロジー入門
代数トポロジー入門Tatsuki SHIMIZU
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1hirokazutanaka
 
ラグランジュ未定乗数法
ラグランジュ未定乗数法ラグランジュ未定乗数法
ラグランジュ未定乗数法弘毅 露崎
 

Similar to 統計概論 isseing333 (20)

分布 isseing333
分布 isseing333分布 isseing333
分布 isseing333
 
Prml 4.3.5
Prml 4.3.5Prml 4.3.5
Prml 4.3.5
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
 
PRML 2.3節
PRML 2.3節PRML 2.3節
PRML 2.3節
 
2013 03 25
2013 03 252013 03 25
2013 03 25
 
Prml 2.3
Prml 2.3Prml 2.3
Prml 2.3
 
公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
070 統計的推測 母集団と推定
070 統計的推測 母集団と推定070 統計的推測 母集団と推定
070 統計的推測 母集団と推定
 
2022年度秋学期 応用数学(解析) 第6回 変数分離形の変形 (2022. 10. 27)
2022年度秋学期 応用数学(解析) 第6回 変数分離形の変形 (2022. 10. 27) 2022年度秋学期 応用数学(解析) 第6回 変数分離形の変形 (2022. 10. 27)
2022年度秋学期 応用数学(解析) 第6回 変数分離形の変形 (2022. 10. 27)
 
C03
C03C03
C03
 
mathemaical_notation
mathemaical_notationmathemaical_notation
mathemaical_notation
 
Zetavalue
ZetavalueZetavalue
Zetavalue
 
線形識別モデル
線形識別モデル線形識別モデル
線形識別モデル
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布
 
代数トポロジー入門
代数トポロジー入門代数トポロジー入門
代数トポロジー入門
 
NLPforml5
NLPforml5NLPforml5
NLPforml5
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
 
Re revenge chap03-1
Re revenge chap03-1Re revenge chap03-1
Re revenge chap03-1
 
ラグランジュ未定乗数法
ラグランジュ未定乗数法ラグランジュ未定乗数法
ラグランジュ未定乗数法
 

More from Issei Kurahashi

おしゃスタ@リクルート
おしゃスタ@リクルートおしゃスタ@リクルート
おしゃスタ@リクルートIssei Kurahashi
 
【スクー】業務改善のためのデータサイエンス
【スクー】業務改善のためのデータサイエンス【スクー】業務改善のためのデータサイエンス
【スクー】業務改善のためのデータサイエンスIssei Kurahashi
 
データサイエンティストになるために
データサイエンティストになるためにデータサイエンティストになるために
データサイエンティストになるためにIssei Kurahashi
 
Tokyo webmining統計学部 第2回
Tokyo webmining統計学部 第2回Tokyo webmining統計学部 第2回
Tokyo webmining統計学部 第2回Issei Kurahashi
 
おしゃスタVI 倉橋
おしゃスタVI 倉橋おしゃスタVI 倉橋
おしゃスタVI 倉橋Issei Kurahashi
 
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回Issei Kurahashi
 
コホート研究 isseing333
コホート研究 isseing333コホート研究 isseing333
コホート研究 isseing333Issei Kurahashi
 
一般化線形混合モデル isseing333
一般化線形混合モデル isseing333一般化線形混合モデル isseing333
一般化線形混合モデル isseing333Issei Kurahashi
 
遺伝疫学研究デザイン isseing333
遺伝疫学研究デザイン isseing333遺伝疫学研究デザイン isseing333
遺伝疫学研究デザイン isseing333Issei Kurahashi
 
生物統計特論6資料 2006 abc法(bootstrap) isseing333
生物統計特論6資料 2006 abc法(bootstrap) isseing333生物統計特論6資料 2006 abc法(bootstrap) isseing333
生物統計特論6資料 2006 abc法(bootstrap) isseing333Issei Kurahashi
 
生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333Issei Kurahashi
 
Analysis of clinical trials using sas 勉強用 isseing333
Analysis of clinical trials using sas 勉強用 isseing333Analysis of clinical trials using sas 勉強用 isseing333
Analysis of clinical trials using sas 勉強用 isseing333Issei Kurahashi
 
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333Issei Kurahashi
 

More from Issei Kurahashi (18)

おしゃスタ@リクルート
おしゃスタ@リクルートおしゃスタ@リクルート
おしゃスタ@リクルート
 
【スクー】業務改善のためのデータサイエンス
【スクー】業務改善のためのデータサイエンス【スクー】業務改善のためのデータサイエンス
【スクー】業務改善のためのデータサイエンス
 
データサイエンティストになるために
データサイエンティストになるためにデータサイエンティストになるために
データサイエンティストになるために
 
Tokyo webmining統計学部 第2回
Tokyo webmining統計学部 第2回Tokyo webmining統計学部 第2回
Tokyo webmining統計学部 第2回
 
おしゃスタVI 倉橋
おしゃスタVI 倉橋おしゃスタVI 倉橋
おしゃスタVI 倉橋
 
おしゃスタat銀座
おしゃスタat銀座おしゃスタat銀座
おしゃスタat銀座
 
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回
 
iAnalysis NY視察
iAnalysis NY視察 iAnalysis NY視察
iAnalysis NY視察
 
おしゃスタV
おしゃスタVおしゃスタV
おしゃスタV
 
平方和の分解
平方和の分解平方和の分解
平方和の分解
 
コホート研究 isseing333
コホート研究 isseing333コホート研究 isseing333
コホート研究 isseing333
 
一般化線形混合モデル isseing333
一般化線形混合モデル isseing333一般化線形混合モデル isseing333
一般化線形混合モデル isseing333
 
遺伝疫学研究デザイン isseing333
遺伝疫学研究デザイン isseing333遺伝疫学研究デザイン isseing333
遺伝疫学研究デザイン isseing333
 
生物統計特論6資料 2006 abc法(bootstrap) isseing333
生物統計特論6資料 2006 abc法(bootstrap) isseing333生物統計特論6資料 2006 abc法(bootstrap) isseing333
生物統計特論6資料 2006 abc法(bootstrap) isseing333
 
生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333
 
Analysis of clinical trials using sas 勉強用 isseing333
Analysis of clinical trials using sas 勉強用 isseing333Analysis of clinical trials using sas 勉強用 isseing333
Analysis of clinical trials using sas 勉強用 isseing333
 
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333
 
データ解析
データ解析データ解析
データ解析
 

統計概論 isseing333

  • 1. 統計概論 確率変数: X 実現値: x 分布関数: FX ( x ) ∂ 密度関数: f X ( x ) = FX ( x ) ∂x 積率母関数(モーメント母関数) (φ )  = 定義: G = E  eφ X   ∫e φx ⋅ f ( x ) dx  1 1  性質: G (= E  eφ= E 1 + X φ + X 2φ 2 + X 3φ 3 + ⋅⋅⋅ (φを 0 の周りでテイラー展 φ)   X   2! 3!  開) 上式で,k 時モーメントを µ k = E  X k  とおくと次のようになる.   1 1 G (φ ) = 1 + µ1φ + µ2φ 2 + µ3φ 3 + ⋅⋅⋅ 2! 3! よって G k ( 0 ) = µk となり,積率母関数を k 階微分して 0 を代入したものは k 次モーメント E  X k  に等しい.   (別証明) ∂k ∂k φx G (φ ) = k k ∫ eφ x ⋅ f ( x ) dx = ∫ ∂φ k e ⋅ f ( x ) dx = ∫x e k φx ⋅ f ( x ) dx ∂φ であるから, G k ( 0 ) = ⋅ f ( x ) dx =X k  = xk ∫ E   µk となる.  期待値 ∞ 定義:= E [= µX X] ∫ x ⋅ f ( x ) dx −∞
  • 2. 性質: E [ aX + b ] aE [ X ] + b = ( 公式: E  E Y X  = X Y ) ∫ E (Y X ) ⋅ f ( x ) ⋅ dx = ∫ ∫ X y ⋅ fY X ( y x ) ⋅ f X ( x ) ⋅ dydx        ∫ = ∫ y ⋅ f XY ( x, y ) ⋅ dydx = ∫ y ⋅ fY ( y ) ⋅ dy = E [Y ](期待値繰り返しの公式) ・ に関して)原点周りの 1 次モーメント (X 分散 ∫ ( x − E [ X ]) ⋅ f ( x ) dx ∞ 定義: σ X = [ X ] = 2 V −∞ 性質: V [ aX + b ] =V [ X ] , V [ X ] E  X 2  − E [ X ] { } 2 a 2 =   公式: { } { E V (Y X )  + V  E (Y X )  = E  E (Y 2 X ) − E (Y X )  + E  E (Y X )  − E  E (Y X )  } { } 2 2 2 X Y  X Y            { }              E Y 2  − E  E (Y X )  + E  E (Y X )  − { E [Y ]} { } 2 2 2 =                        E Y 2  − { E [Y ]} = [Y ] 2 =   V ・平均周りの 2 次モーメント ・2 次モーメントから 1 次モーメントの 2 乗を引いたもの 共分散 ∫ ∫ ( x − E [ X ]) ( y − E [Y ]) ⋅ f ( x, y ) dxdy ∞ ∞ 定義: σ XY= Cov [ X , Y = ] −∞ −∞ 性質: Co [ , Y ] E [ XY ] − E [ X ] E [Y ] = vX ・平均まわりの(1,1)次のモーメント ・実際に計算する際には,平均値からの差を利用する場合と観測値の差のペアを利用する 場合の二通りある. 独立と無相関 独立: f XY ( x, y ) = f X ( x ) ⋅ fY ( y )
  • 3. 無相関: Cov [ X , Y ] = 0 性質:独立⇒無相関 ・無相関⇒独立の反例  1 1 X ~ U  − ,  , Y = X 2 である場合,無相関ではあるが独立ではない.  2 2 標準偏差 定義: σ X = V [ X ] ・分散の平方根 標準化 Z= (X − µ) σ ・確率変数 X から期待値μを引いて標準偏差σで割ったもの 歪度   ( X − µ ) 3  µ 定義: E    = 3  σ   σ3   ・標準化確率変数の 3 次モーメント ・平均周りの 3 次モーメントをσ3 で割ったもの ・0 だと対称.正だと右裾,負だと左裾を引く 尖度   ( X − µ ) 4  µ4 定義: E     − 3= −3  σ    σ4 ・標準化確率変数の 4 次モーメントから 3 を引いたもの ・正規分布では 0.正だと尖った,負だと平坦な分布 ・相関係数(共分散を基準化したもの,単回帰によって計算される平方和を利用しても計 算できる)
  • 4. ・分散共分散行列,相関係数行列 ・平均二乗誤差(MSE) ・最小二乗誤差(LSMEAN) ,第 1 種~第 4 種 ・平方和(SS) ・統計量の性質 ・ 不偏性 ・ 有効性 ・ 一致性 ・ 充分性 ・ 完備性 ・ ・漸近効率 ・ ピットマンの効率 ・ バハドールの効率 ・数値積分 ・Romberg 法 ・常微分方程式 ・可変ステップサイズの後退差分法